"Deepfakes, shallow epistemic graves: On the epistemic robustness of photography and videos in the era of deepfakes" by Paloma Atencia-Linares & Marc Artiga
Deepfakesがあると、画像・動画の情報としての価値 (動画をm、描写される事態をsとしたとき尤度比 P(m|s)/P(m|¬s)) が減るという問題がある。
これに対し、著者は、動物のコミュニケーションの例を引く。
動物のコミュニケーションが成立する理由として、
1. 共通の利害
2. 機構上の偽造の難しさ (indices)
3. 信号を作るコストが真な場合と偽な場合で違うこと (handicap)
がある。
これらの偽造防止メカニズムは画像・動画の場合にもある。性能の良いGPUを積んでないとDeepFakesは走らせられないとか。
さらに、嘘はあまり多くなるとオオカミ少年になって信じられなくなるだけなので、そこまで多くはなれない。
本当かなあ。本物の方もオオカミ少年と同じステータスになってしまうのが問題だったわけだけど、どうなんだろう。
…とのことだけど、あまり安心できる話ではないとおもった。
というか、DeepFakesにより、(2)(3)があやしくなるってことじゃないの。